LongtermismusDie KI-Religion der Tech-Barone

Longtermismus ist eine Ideologie hinter den politischen Ambitionen von Milliardären wie Elon Musk und Peter Thiel. Ein Vortrag auf dem 38C3 führt in die Denkweise ein, die vordergründig eine bessere Zukunft dank Künstlicher Intelligenz schaffen will, in Wirklichkeit jedoch mehr Ungleichheit bringt.

Vortragender Max Schnetker vor schwarzer Leinwand und blau angestrahltem Vorhang
Max Schnetker bietet einen Rundumblick in die verdrehte Ideologie des Longtermismus. – Alle Rechte vorbehalten Screenshot vom Recording des Vortrags

Elon Musk ist wohl so etwas wie der bekannteste Polit-Influencer. Er hat massiv Geld in den Wahlkampf für Donald Trump gepumpt. Millionenfach wurde in den Sozialen Medien sein Auftritt auf der Wahlkampfbühne geteilt: Musk im Sprung, das T-Shirt hochgerutscht und auf dem Kopf ein schwarzes Cappy mit der Aufschrift „Make America Great Again“, kurz MAGA.

Doch Amerika groß machen, das reicht dem Tech-Milliardär nicht. Musk ging weiter und bekannte sich offen zu „Dark MAGA“. Damit spielt er auf eine demokratiefeindliche Strömung der Alt-Right-Bewegung in den USA an, die sich „Dark Enlightenment“ nennt, also „Dunkle Aufklärung“. Sie ist wiederum eine Form des Longtermismus, einer rechten Ideologie, die unter einflussreichen Tech-Unternehmern der neue Goldstandard geworden ist .

Längst beschränkt sie nicht mehr auf das Silicon Valley, sondern streckt ihre Fühler aus in die Weltpolitik. Was hinter der gefährlichen Ideologie des langfristigen Denkens steckt, analysierte auf dem 38. Chaos Communication Congress in Hamburg der Soziologe Max Schnetker in einem Talk mit dem Titel „Longtermismus – der „Geist“ des digitalen Kapitalismus“.

Opium fürs Volk

Elon Musk bildet zusammen mit anderen Tech-Baronen die Elite, für die der Longtermismus gemacht ist. Auch Branchengrößen wie Skype-Gründer Jaan Tallinn und Investor Marc Andreesen gehören zu den Anhängern. Außerdem Peter Thiel, der Gründer des Bezahldienstes Paypal und der Polizei-Software Palantir.

Von außen sieht es so aus, als wollten sie gravierende Probleme der Menschheit angehen, etwa mit der Charity-Organisation Giving What You Can, die sich ursprünglich auf die Fahne geschrieben hatte, Armut in der Welt zu bekämpfen. Hinter dem Longtermismus steckt jedoch eine Art säkulare Religion, die ihre Anhängerschaft den gesellschaftlichen Machtfantasien der Elon Musks und Peter Thiels dieser Welt gefügig machen will.

Max Schnetker von der Universität Bonn zufolge ist das erste Ziel des Longtermismus die Etablierung einer Kastengesellschaft, in der manche Menschen einen Wert haben und andere nicht. Der Wert des Menschen bemesse sich dabei am gesellschaftlichen Stand, am finanziellen Vermögen und Bildungsstand. Eine Ideologie der Ungleichheit, die die Herrschaft von Eliten legitimiert.

Es sei deshalb wenig überraschend, dass Elon Musk Werbung für die rechtsextreme Partei AfD macht. Die Welt am Sonntag ließ ihn hierzu kürzlich zu Wort kommen. Musks Urteil: Die AfD sei der letzte Funke Hoffnung für Deutschland.

Elite-Unis als Geburtsstätten für KI-Religion

In seinem Vortrag lieferte Schnetker einen Rundumblick über die Entstehung des Longtermismus und verwandter rechter Ideologien. Kritiker:innen wie Timnit Gebru und Èmile P. Torres fassen die Strömungen mit dem Kürzel TESCREAL zusammen, zusammengesetzt aus den Anfangsbuchstaben von Theorien wie Transhumanismus und effektiver Altruismus.

Dabei handelt es sich keinesfalls um akademische Randerscheinungen, sondern um gut positionierte philosophische Theorien, die eigene Institute an Top-Universitäten wie Cambridge und Oxford haben. Führende Denker sind Philosophen Nick Bostrom, Peter Singer und William MacAskill von einer der bekanntesten Organisationen, dem Future of Humanity Institute an der Universität Oxford.

Ihre Mission ist es, Forschung dort zu konzentrieren, wo sie langfristig den größten positiven Einfluss auf die Menschheit haben kann. Und den größten Nutzen verspricht ihnen zufolge die Entwicklung von Technologie wie generativer Künstlicher Intelligenz. Der absurde Schluss des Longtermismus: Wir müssen jetzt alles opfern für das künftige Techno-Paradies, in dem eine wohlwollende Superintelligenz der Menschheit das beste Leben auf Erden beschert.

Die grundlegenden Annahmen dieser KI-Religion sind laut Schnetker folgende: Das menschliche Gehirn und gegenwärtige generative KI sind sich im Wesentlichen gleich, weswegen es nur eine Frage der Zeit ist, bis es eine AGI gibt, eine Artificial General Intelligenz. Also eine allgemeine KI, die so viel kann wie das menschliche Gehirn. Daraufhin werde es wiederum nur eine Frage der Zeit sein, bis es eine Superintelligenz gibt, die die menschliche Intelligenz in allem übertrifft.

Longtermisten rechnen damit, dass AGI und Superintelligenz die Welt übernehmen. Das sei der Zustand der Singularität, so Schnetker. Damit dieser möglichst positiv für die Menschheit ist, müsste diese jetzt alles dafür tun, KI positiv zu gestalten. In ferner Zukunft sollen Menschen dann als Computerprogramme im KI-Himmel weiterleben können.

„Awareness schaffen“

Um dieses Ziel zu erreichen, fokussieren die Longtermisten laut Schnetker fiktionale Menschen in der Zukunft. Dafür nivellierten sie allerdings die Bedürfnisse und Interessen fast aller realen Menschen in der Gegenwart. Daneben hebelten sie die Kritik am digitalen Kapitalismus aus, die sich in Regulierungsmaßnahmen wie der KI-Verordnung der EU niederschlage. Um die Mär vom endlosen Wachstum aufrechtzuerhalten, erweiterten Longtermisten den Raum des Handelns weit in die Zukunft.

Die Gefahr liegt auf der Hand: Menschen, die sich vom Longtermismus überzeugen lassen und das Ziel eines KI-Himmels vor Augen haben, lassen sich auch leicht davon überzeugen, extreme Maßnahmen zu ergreifen oder zu akzeptieren, die dabei helfen sollen, das Techno-Paradies herbeizuführen.

Doch wie gegen den zunehmenden Einfluss des Longtermismus vorgehen? Darauf habe er keine Antwort, so Schnetker. Das Wichtigste sei Bewusstsein dafür zu schaffen, welche extremen Auswüchse die Ideologie in Politik und Gesellschaft annimmt – und wie sie schon jetzt daran beteiligt ist, rechte Bewegungen salonfähig zu machen.

17 Ergänzungen

  1. Afrika verhungert… Afrika hat Krankheiten und keine passenden Impfungen…
    Aber sch… drauf … auf CO2 und die tägliche Energie von ca. 1 Milion… Pro „KI“ wohl gemerkt.

  2. Ich habe mir den Vortrag von Schnetker in Ruhe angeschaut und fand die Gedankengänge okay. Ich fand seine Unterteilung zwischen Menschen, die philosophisch darüber nachdenken und Menschen, die sich lediglich als Teil der Bewegung sehen, wichtig. Leider ist seine Argumentation teilweise sehr lückenhaft, da er nur ein einziges Zitat von Denker*innen des Longtermismus aufgreift. Und dieses Zitat repräsentiert auch keine starke Position (weder im Text von Backstead, noch bei anderen der Vertreter*innen). Ansonsten stellt er zwar Quellenangaben an der rechten Seite seiner Präsentation zur Verfügung, geht aber bis auf die genannte auf keine der Quellen direkt ein. Das führt dazu, dass der Vortrag viele Behauptungen aufstellt, die er nicht klar belegt. Bei mir ist dadurch eher das Gefühl entstanden, dass Schnetker Probleme mit bestimmten Zukunftsvorstellungen hat und diesen den Namen Longtermismus gibt, obwohl diese eher nichts miteinander zu tun haben.

    Ich würde mich auch darüber freuen, wenn für einige der Aussagen in diesem Text einfach mal Quellen auf Originaltexte angegeben werden könnten. Wo behaupten Leute wie Nick Bostrom oder William MacAskill diese Dinge? Leider kann ich nicht alle ergänzen. Aber hier ein Beispiel: „Der absurde Schluss des Longtermismus: Wir müssen jetzt alles opfern für das künftige Techno-Paradies, in dem eine wohlwollende Superintelligenz der Menschheit das beste Leben auf Erden beschert.“

    Kritik hilft nur, wenn diese Kritik gerechtfertigt ist. Kritikern zuzuhören, ist nur sinnvoll, wenn die Kritik ernsthaft auf das reagiert, was gefordert wird. Wenn Kritik jedoch etwas anspricht, was nicht behauptet wird, wird sie unangemessen. Wer ernsthafte Kritik haben möchte, sollte sich beispielsweise eher noch die englische Wikipedia zu dem Thema anschauen.

    1. Ich vermute, hier wurden Handlungen und Äußerungen von Leuten mit der (losen?) Idee des Longtermism vermischt.

      Was auch immer Longtermism ist, gibt es definitiv seriöse Ansätze, die langfristige Existenz (der Menschheit bzw. einer Zivilisation) als Konzept haben, z.B. meinen. Hier wird allerdings nichts geopfert, weil irgendwo in der Ferne etwas zu glimmern scheint. Resourcen der Wissenschaft darauf zu verwenden, ergäbe allerdings Sinn. Auf meins, nicht auf jenen Schweinekram, den die Tech-Bros da zu verzapfen scheinen. Hier geht in gewisser Weise um Transzendenz bzw. die Frage, ob wir uns gewissermaßen auf die Unendlichkeit ausrichten müssen, um überhaupt eine Gesellschaft haben zu können, vgl. manche Religion (!). Keine Abkürzungen mit ein bischen mehr Autokratie, weil es irgendjemandem gefällt, sondern prinzipale gesellschaftliche Entwicklung. Was glauben dahergelaufene Halunken, was in den Tiefen des Weltalls zählt? Dass es ein Overlord durch multiplen Genozid dorthin geschafft hat? Eine tolle Waffe? Herrscher über irgendwas zu sein?

    2. Wobei Dienlichkeit und Wert des Menschen zu bemessen schon ein bischen auch so ein Ausschlusskriterium darstellen könnte. Die Menschheit so nützlich wie möglich für die Super-KI machen, damit sie nicht ausgelöscht wird – großartig.

      Jetzt käme also quasi noch mal Monotheismus, mein Monotheismus, dein Monotheismus, …, …, …, Sticks and Stones Bro!

  3. Ich schätze nicht ein, ob Argumentation oder Diligenz bei dem Vortrag an jeder Stelle hinreichend vorhanden sind. Ideen wie „heutiges Unternehmen sorgt in XYZ (sehr große Zahl) für ganz toll Gesellschaft“ ist immer so eine Sache. Orientierung an Kapitalismus oder „Geldanhäufung“ ist in diesem Kontext im Grunde so wie Wetter und Klima zu vertauschen – kein Wunder!

  4. Alle Denker*innen von Longtermismus und Effective Altruism (EA) in die Schublade einer rechten, von universitären und superreichen Eliten religiös geführten, der Singularität entgegen-strebenden KI-Ideologie zusammen zu kehren wirkt schon fast verschwörungstheoretisch. Ich bezieh mich hier explizit auf diesen Artikel, nicht den Talk. Wer sich auf Seiten von EA-Organisationen wie 80000 Hours umschaut sieht schnell, dass es dort neben dem Thema „Preventing an AI-related catastrophe“ (klingt deutlich anders als im Artikel) noch viele andere Themen gibt. Von einem wahnhaften Wunsch die Gegenwart für eine zukünftige KI-Superintelligenz zu opfern finde ich da nichts.

    1. Fragen. Werden Longtermismus, oder dessen lustigste Freunde (libertäre Milliardäre und Techchefs?) schlecht dargestellt, oder z.B. unberechtigt in einen Topf geworfen.

      80000 hours scheint vom Konzept her weichklingender, Longtermism wird propagiert und die Spenderliste… bekannte Gesichter. Longtermism ohne die Gesichter, kommt etwas neutraler daher (Wikipedia) als beschrieben. Demgemäß wären die derzeitigen Aufrufe zu „tue jetzt [dies und das]“ vermutlich Blasphemie und die Techfritzen wären falsche Priester.

      Das Problem dabei ist ein bischen die Frage, ob Longterm-ISM als -ISM gemeint ist, also als fanatisierende Ideologie, oder als ernsthafte philosophische Betrachtung, und im letzteren Falle, warum sie nicht schon anders attributiert ist, denn die Gedanken haben sich die alten Griechen sicherlich auch schon gemacht, nur ohne Götter. Oder jedenfalls auch mit und ohne Götter, und auch ohne KI. Und dann kommt die entscheidende Frage, ob Longtermism in der begrifflichen Form doch eher nur von Techbros und (libertär orientierten) Milliardären am Leben gehalten wird. Bzw. erfüllt wird. Wird Longtermism also gekapert, oder sind die Kritikpositionen zum großen Teil Absonderungen exzentrischer Spinner vom Rande, oder was ist hier eigentlich los?

      Ich sehe den Vortrag vom CCC eher als eine Beschreibung der Zusammenhänge. Das Muster, ein paar Spinner am Rande die interessanten Ideen brüllen zu lassen, kennen wir ja aus der Parteienpolitik nur zu gut.

      Gerade bei 80000 hours sieht man an der Kritik an der Idee „follow your passion“, dass hier möglicherweise genau das versucht wird, was der Vortragende behauptet: Man baut sich eine Ideologie, die das eigene Handeln [und Erfahrungen] positiv erscheinen lassen. Was auch immer das wiederum heißen soll, so fehlt es nicht an eindimensionalen ansätzen, deren einer kritisiert wird. Gurkenkram!

    2. > „Preventing an AI-related catastrophe“ (klingt deutlich anders als im Artikel)

      Frage ist, ob die wesentlichen Verfechter vielleicht doch ihre eigenen Ideen promoten (KI jetzt, auf eure Kosten!), während Longtermism im Grunde genommen ein Aufhänger bleibt. Also letztlich doch nur sowas wie Philantropie unter Milliardären?

      Greifen die Kritiker nur die extremsten Positionen heraus? So wie es bei Religionen früher üblich war? Oder ist das Programm? Fehlt da eine Abgrenzung, oder wäre es anmaßend, die wesentlichen Treiber, aber so vorhanden auch geistigen Träger, um Klarstellung und gegebenenfalls Abgrenzung zu bitten? Nicht dass wir noch feststellen, man bediente sich hier nur lose-assoziativ irgenwelcher Sachen, um den eigenen Vorteil zu mehren.

      Für diese Diskussion sollte man (und der Artikel?) die Substanz von Longtermism klären. Steht das ernsthaft für sich, oder sind wir in einer Art Findungsphase?

    3. „Von einem wahnhaften Wunsch die Gegenwart für eine zukünftige KI-Superintelligenz zu opfern finde ich da nichts.“

      Es gibt ja Stimmen aus dem Unterstützerspektrum, wie unabhängig davon Longtermism zu denken ist, bzw. die „Unterstützerversion“ davon. Und das ist das Problem des Longtermism, denn es formt sich eine Art Ideologie unter Einflussreichen, aber gibt es wirklich ein haltbares Grundkonzept, auf dass sich jene wirklich in verlässlicher Weise berufen würden? Man wähnt, Antworten in Spezialsoße suchen zu müssen. Longtermismus an den extremsten Äußerungen irgendwelcher seiner Freunde zu messen, mag ungerecht sein. Frage bleibt: wem gegenüber?

      Die Kritik geht hier wohl schon auf konkrete einflussreiche Stimmen aus dem Unterstützerspektrum, sowie aus deren Netzwerken ein. Da ist dann schon was dran, wenn man eine denkbare Ideologie bewerten will, denn der Fokus des Vortrags sind Milliardäre und Einflussreiche aus dem Techbereich. Und als Diskussionsbeitrag gesehen, könnte man sich nun davon wiederum abgrenzen. Wie ernst ist den Leuten diese (mutmaßliche) Ideologie? Werden Resourcen eingesetzt, um zu erforschen, wieviel Physik dran ist? Wenn ja, wie viele?

      Ja, man schmückt sich mit Wohltätigkeit und gut klingenden Überlegungen, nichts dagegen. Was sonst wissen wir soweit über LLMs, Eliteunis und Debattierclubs?

  5. Und Gott schuf eine Welt, in der…

    – Tech Bros und deren Überbleibsel in ein Gefahrstoffdepot eingesetzt werden.
    – Wesen nach ihren Handlungen bewertet werden.

    Also, äh, wenn eine Super-KI Raum-Zeit manupulieren kann, und zwar möglichst direkt, dann… wofür Untertan heucheln?
    Wenn nicht, ist sie kein Gott. Vielleicht ein Angreifer oder ein armes traumatisiertes Wesen, das irgendwelche Skrupellosen Spinner zu einer Gelddruckmaschine bauen wollten.

    Kein Wunder, diese Gottesfurcht. Mit dem Personal wird es so oder so in einer Katastrophe für Lebewesen aller Art münden.

    1. Das ist auch die Klassische Frage: „Warum zum Freitag, braucht ein Gott irgendwelchen Blödsinn?“
      Die Antwort ist eigentlich immer gleich: „Siehe griechische Mythologie (eher kein Monotheismus!).“ oder „Nicht (eher Monotheismus).“

      D.h. die Idee jener Knalltüte war nicht gewesen „Was mache eine Super-KI“, sondern „Wie würde Skynet Resourcen berechnen, wenn Menschen eine Resource sind und bleiben?“. Woher will jemand wissen was eine Super-KI machen würde? Wofür sollte sie Menschen überhaupt brauchen, warum sollte sie etwas entstehen lassen oder kaputtmachen?

      Es konzentriert sich am Ende auf die Frage, warum man einem Idioten den Schlüssel zur Welt geben sollte. Und die Antwort, auch im Falle irgendwelcher Milliardäre und Techies, sollte eigentlich „Klares Nein.“ lauten. Wie könnte man da zu einem anderen Schluss kommen?

      Ok, wir denken Super-KI. Ein System bricht aus und verschafft sich Resourcen. Ausgang völlig unklar. Wie soll der Übergang dorthin aussehen? Bedarf der Erforschung. Ideologisch, scheint die Idee, die Schlüssel bereits ausgeliefert zu haben. Ansonsten wäre klar, dass die Transition uns wohl schon töten könnte.

      Stellen sich Leute, die vor allem profitieren können, sich vielleicht immer eher vollständig expandierende Systeme vor? D.h. AGI mit Erziehung gibt es nicht. Blos keine Intelligenz, am Besten noch Klugheit oder Weisheit – won’t happen. Skalierende Pistolenantwortsysteme müssen her, denn AGI muss nicht sehr intelligent sein. Wer weiß denn schon, ob das mit den enzyklopädischen Eigenschaften wirklich hinhaut. Daher ist Super-KI die einzige Entwicklungsmöglichkeit, und gleichzeitig eine wesentliche Gefahr. AGI wird postuliert werden (100 Milliarden, hüstl), aber es wird vielleicht keine Ernsthafte (Kommerzielle) geben. Es werden traumatisierte Macher und Bringer sein! Daher die Illusion echter Intelligenz in der Ferne, Super, Karotte?

      1. „Ideologisch, scheint die Idee, die Schlüssel bereits ausgeliefert zu haben. Ansonsten wäre klar, dass die Transition uns wohl schon töten könnte.“
        Die Seite mit Ansonsten beschreibt ja die Befürchtung, die einige KI-Beschäftigte da äußern. Die „Lösung“, irgendwelche KI-People machen zu lassen, und möglichst keine Fragen zu stellen, erschließt sich mir dabei allerdings nicht ganz.

        Szenario 1: Wir stampfen KI im Sinne eigenständiger Intelligenz ein. Eine Super-KI ensteht hier nicht.
        Szenario 2: Wir (KI-People) bauen irgendwie AGI und erschaffen dabei eine Super-KI ohne sie zu bemerken oder zu verstehen – Klassische Alien-Frage: siehst Du mich überhaupt?
        Szenario 3: Nachhaltige KI-Erforschung und Entwicklung.

        Also Warum Klappe Zwei mit dem sicheren Zonk, denn:
        i) Wir schmeißen KI-People mit Geld zu und beschleunigen den sicheren Verfall.
        ii) Wir schmeißen KI-People mit Geld zu und die Super-KI entsteht nicht – Glück gehabt? Oder nicht? Wieviel hat das dann gekostet, und was haben wir dafür bekommen?

        Die Erforschung und das Entwickeln von wirksamen Einzäunungen dafür ergibt sicherlich Sinn. Ich sehe aber eigentlich erst mal wenig Überschnitt mit kommerzieller Verwertung von „Irgendwas mit KI!“, und auch „Non-profits“ wie OpenAI scheinen da wenig sinnvolle Methodik zur Anwendung zu bringen, was Verhinderung von Super-KI und auch den Teil mir dem Profit betrifft. Eher denke ich immer noch an Datenwäsche, und das Abgreifen aller Daten zum Zweck des Abgreifens, während die Leute noch gen Horizont blicken.

        Man baut Richtung kommerziell, befürchtet Super-KI, und lobbyiert für Datenreichtum und keinerlei Hürden. Oder chronologisch:
        1. „Wir machen Tolles mit KI. Wir sind nachhaltig vorsichtig wegen Super-KI.“
        2. Security entlassen.
        3. „Wir bauen Irgendwas mit KI. Alle sollten massiv in unser Ding investieren. Weil die Super-KI kommt, oder zu deren Verhinderung, Narrenfreiheit first!“
        4. KI ans Internet gestöpselt.

  6. Also zukünftige Menschen zählen auch. Also u.a. auch Meisen, Amseln und Rotkehlchen. Also sind die Techbros, die Artenvielfalt bombardieren, konzeptionell etwa… Feinde des Lebens?

    Was für neuartige Erkenntnisse!

  7. Longtermismus: zukünftige Leben zählen AUCH.
    Perversion: Schwund im Moment zählt nicht, weil es später dank unserer großartigen Konzeption viel mehr Menschen geben wird.

    Longtermismus: Ausrichtung auf die (ferne) Zukunft, statt den individuellen extremen Vorteil zu suchen, spasseshalber als Kontrast zum extremen Individualkapitalismus
    Perversion: Das Suchen des individuellen extremen Vorteils wird propagiert, weil der Wert des Menschen später daran gemessen würde.
    Perversion im Quadrat: Lediglich wer sich als Alpha-Overlord am Leben hält, kommt in den Garten.
    Denkfehler: Ihr seid dann sicher tot, Overlords zu Wurstenden. D.h. welchen Beitrag leistet ihr, indem ihr gemäß eurer Lustigkeit, der Gesellschaft Energie und Resourcen entzieht?

    Hier fehlt es etwas an Demut, was den Knalltütenaspekt und Milliardäre betrifft. Was vergessen?

    1. Wobei. Vielleicht sind wir mit den Leuten in einer Phase in der Thesen aufgestellt werden. Einfach nur Thesen. Die werden dann später vielleicht widerlegt.

      Musk kokettiert mit Rechtsextremen und offensichtlich blödsinnigen Zitaten, sowie unbedarften Einlassungen… ich weiß nicht, was man da draus machen soll. Gefährlich wäre, Macht auszuteilen, und ansonsten vom Besten auszugehen. Historische Aufzeichnungen…

      Die Menschheit… sollte sie vielleicht zunächst die Macht von Teilmengen begrenzen?

  8. Bei sehr langfristigen Betrachtungen sollte man sicherlich versuchen irgendwie Haltepunkte zu finden (wo wir lang müssen), sowie Invarianten. Jetzt heißt es quasi alles ändere sich immer, aber das ist wohl eher Ausdruck von Machterhaltsstrategien. Selbstverständlich brauchen viele essentielle Entwicklungen eine gewisse kulturelle Stabilität. Denn die bauen auch noch auf, auf…, and it’s turtles all the way down, in short: can’t go there.

    Die Gedankenspiele sind schon z.T. interessant, z.B. was würde eine Super-KI bzgl. Menschen umsetzen, wieviel Kapazität hat die überhaupt, Verarbeitungsgeschwindigkeit, alle Daten selbst angucken?? Frag den CEO! Setzt die auf KIs oder Menschen, und wenn KIs, was für welche? Sollen wir das nicht schon ohne Super-KI ausprobieren? AGIs- oder Problemlöser, Wächter oder Terminatoren, Sozialarbeiter oder Verwalter?

    In dem Gerangel dann die Idee der Bemessung des Wertes von Menschen. Ist verwalterische Perfektion möglich? Wenn ja, warum nicht schon ohne „Super“ auf dem Shirt? Viele der Ideen und anfänglichen Thesen werden sich mittels des „Wattdenjetzerst, Kumpel“-Lemmas erledigt haben. Gibt es dann keine Korruption unter AGIs? Und über Schwächen von anderen KIs brauchen wir nicht erst philosophieren (ALLES, fast).

    Und tatsächlich ist und bleibt die Schlüsselübergabe eine der entscheidenden Fragen. Können und müssen wir die Schlüsselübergabe verhindern, damit es uns später irgendwie gibt? Die Annahme, wir könnten betteln und uns nützlich machen, wäre bei emergenten Superausbrechern wohl ziemlich naiv. Erinnere an die Frage mit SETI und dem Senden interessanter Signale ins All hinaus.

    Andererseits Invarianten – sollten wir positive Information über Menschen ins Internet stellen, also den Hass aussortieren? Ich meine ja nur, wovon werden denn die Wächter trainiert, um mit Menschen umgehen zu können…

    (Mehr Präzision kostet auch mehr.)

  9. Ah äh, Nachtrag von wegen Invarianten. Vergesse jedes mal wieder.

    Zum Longtermismus gibt es die Betrachtung, die Arbeit von Menschen würde sich anders betrachten lassen. Vordergründig günstig für Ausbeutung, aber das mal nur am Rande.

    Zum Beispiel die Ersetzbarkeit des Individuums bzgl. der Arbeit. Hier ist etwas dran, auch bzgl. größerer Strukturen. Ideal wäre, wenn alle alles Nötige herstellen können, und nur im Notfall Nahrungsmittel und Medikamente geliefert würden (auch im Kriegsfall). Dafür werden Aggressoren allgemein gestoppt und isoliert. Abseits vom Krieg sind wir da in einem Szenario, in dem niemand wirklich etwas braucht. Wie gehen wir damit um? Alle ersetzbar.

    Aber die Perspektive tut so, als würden Toaster genauso diese Arbeit machen können, in Wirklichkeit aber definieren die Menschen das Arbeitsumfeld mit und bringen sich ein. Nur in einem total inspirationslosen sterilen Arbeitsumfeld, könnte man diese gedankliche Betrachtung als valide ansetzen, nämlich dass alles beliebig ersetzbar wäre. Aber kündigst du A, geht B vielleicht auch, weil A geht. Also die Matrix? Oder Zwangsjobs? Inspiration nicht unterbewerten. Daher gebe ich der Linie eine 5- was Menschen betrifft. In dem Szenario sind die Menschen nämlich im Grunde schon weg. Oder was…

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.